Quando si parla di intelligenza artificiale, “il problema maggiore che stiamo affrontando oggi non è un eccesso di calcolo, ma l’energia”. Lo ha detto Satya Nadella, ad di Microsoft, nel corso di un’intervista al podcast americano Bg2 Pod, insieme a Sam Altman di OpenAI. Nadella ha sottolineato la necessità delle big tech di concentrarsi su come ridurre i costi di gestione dell’intelligenza artificiale.
“Questo è il punto, non mancano i chip ma le possibilità di collegarli ai data center. Il rischio è di avere un inventario pieno e di non poterlo usare”, le parole di Nadella, “non è qualcosa che riguarda un solo Paese ma tutto il mondo e su cui dovremmo procedere insieme, con un obiettivo comune”.
Come scrive il sito Tom’s Hardware Usa, che riporta l’intervista, Il consumo energetico inerente l’esplosione dell’IA è un argomento su cui esperti e aziende discutono da tempo. “È divenuto primario non appena Nvidia ha risolto la carenza dei semiconduttori necessari a far girare le soluzioni di intelligenza artificiale”, riporta il sito. Non è un caso se molte aziende tecnologiche stiano investendo nella ricerca su piccoli reattori nucleari modulari, che possano aumentare la scalabilità delle loro fonti di energia, avanzando nella potenza ma con l’obiettivo di ridurre l’impatto ambientale. Di recente, proprio OpenAI ha chiesto al governo Usa di costruire infrastrutture per garantire almeno 100 gigawatt di elettricità dedicati alle soluzioni di IA, per mantenere il vantaggio tecnologico sulla Cina. “L’elettricità non è semplicemente un servizio pubblico – ha affermato OpenAI in un articolo sul suo sito Internet – ma un asset strategico cruciale per costruire l’infrastruttura di IA che garantirà la nostra leadership nella tecnologia più importante dai tempi dell’elettricità stessa”.
Riproduzione riservata © Copyright ANSA
